【人工智能】生成式AI運作涉大量原始資料 鍾麗玲:個人資料或被濫用

社會

發布時間: 2023/04/29 16:13

最後更新: 2023/04/29 16:24

分享:

分享:

個人資料私隱專員鍾麗玲。(資料圖片)

聊天機械人ChatGPT在全球掀起人工智能熱潮。個人資料私隱專員鍾麗玲表示,很多人視這科技突破為人類的福音,但生成式AI的運作涉及使用大量的原始資料或數據作為訓練數據,個人資料可能會被濫用。

鍾麗玲指, 「ChatGPT」、 「Bard」、「文心一言」和「通義千問」與早期主要透過分析大數據作出決策的人工智能不同,聊天機械人的「神奇」之處在於它們可以秒速回應用戶的請求和問題,並根據所給予的提示,像人類般提供看來理性、完整及令人信服的回應,甚至可用來創作詩詞歌賦,這使它成為人工智能發展史上的一個里程碑。

鍾麗玲引述,最近有報道指,生成式AI的邏輯理解和分析能力已相當接近人類,例如用生成式AI去解答文憑試DSE中史科試卷,可以1分鐘内完成試卷並得到5級的佳績。最近更有世界攝影比賽的冠軍作品是由人工智能生成,可謂「人機難辨」。

惟她指出,生成式AI的運作建基於「深度」學習技術,當中涉及使用大量的原始資料或數據作為訓練數據,而這些資料或數據可以包括敏感的個人資料,可以是由用戶所提供的,或是由互聯網收集及複製的。 

鍾麗玲舉例指,如有人在自己完全不知情的情況下,將自己的姓名、職位、住址、身份證號碼,甚至信用卡號碼提供予聊天機械人作為對話的一部分,視乎有關程式的演算法,這些個人資料便可能會被儲存到機械人的資料庫中,並可能成為它回答下一個用戶的材料。甚至有員工因為使用聊天機械人而將公司機密資料,例如公司系統原始碼、甚至一些醫療紀錄放入聊天機械人的系統裏,引來企業機密資料和私隱外洩的憂慮。 

最近,全球超過2.7萬人,當中包括科技專家,聯署了一封公開信,呼籲所有人工智能實驗室六個月内暫停訓練更強大的生成式AI系統,並在這期間共同制定和實施一套安全守則。 

鍾麗玲認為科技公司,尤其是人工智能開發科企,有責任確保人工智能系統的數據安全,相關科企應檢視及評估他們的人工智能系統在運作上對數據私隱及道德的影響,並確保遵從相關法例或適用的指引。 

她贊成對這新興科技採取一個謹慎開放的態度,在不窒礙新科技長遠發展的同時,亦應考慮以法律法規、指引、行業標準,或甚至國際標準去作出規範,令生成式AI在一個健康、合法及符合道德的空間中發展。

私隱專員公署於2021年8月發出《開發及使用人工智能道德標準指引》,協助機構以保障私隱、符合道德及負責任的方式開發及使用人工智能系統。《指引》臚列了國際認可的人工智能道德原則,涵蓋問責、人為監督、透明度、公平、數據私隱、有益的AI,以及數據可靠、穩健及安全等方面的標準。機構在開發及使用生成式AI時,除了須要符合《個人資料(私隱)條例》的規定外,亦應該遵守這些原則,以減輕私隱及道德風險。 

HKETAPP健康台更多都市疾病影片:https://bit.ly/3cNFwr7

hketApp已全面升級,TOPick為大家推出一系列親子、健康、娛樂、港聞及休閒生活資訊及Video。立即下載:https://bit.ly/34FTtW9

記者:黃穎津